การเปลี่ยนแปลงเชิงแนวคิด
เรากำลังเปลี่ยนจาก "ประสิทธิภาพทุกอย่างโดยไม่คำนึงถึงผลเสีย" แนวคิดไปสู่ ปัญญาประดิษฐ์ที่รับผิดชอบ (RAI) กรอบการทำงาน ในยุคนี้ ความสำเร็จทางเทคนิคต้องพึ่งพาความแข็งแกร่งด้านจริยธรรมและมาตรการรักษาความปลอดภัยเป็นอย่างยิ่ง
1. การหาค่าตัวแปรภายใต้ข้อจำกัด
ในอดีต เป้าหมายคือการลดฟังก์ชันความผิดพลาด $L(\theta)$ แต่แนวทางใหม่ได้ตีความปัญญาประดิษฐ์ว่าเป็นปัญหาการหาค่าตัวแปรภายใต้ข้อจำกัด: $$\max P \text{ โดยต้องมีเงื่อนไข } C_1, C_2, \dots, C_n$$ โดยที่ $C$ แทนเกณฑ์ความปลอดภัยและอัตราความยุติธรรมที่ไม่สามารถเจรจาได้
2. ช่องว่างระหว่าง "การทดลองในห้องแล็บ" กับ "การใช้งานจริง"
โมเดลส่วนใหญ่มักได้ผลลัพธ์ระดับสูงสุด (SOTA) บนชุดข้อมูลทดสอบแบบคงที่ (ในห้องแล็บ) แต่กลับแสดงความล้มเหลวครั้งใหญ่ในสภาพแวดล้อมทางสังคม-เทคโนโลยีจริง (ในชีวิตจริง) เนื่องจากการโต้ตอบที่ไม่คาดคิด
ด้านซ้าย: ความแม่นยำ/ความเร็วสูง แต่ไม่มีความปลอดภัยหรือความโปร่งใสเลย ด้านขวา: หกเหลี่ยมสมดุลที่แสดงถึงความปลอดภัย ความยุติธรรม และความสามารถในการอธิบายเหตุผล
ตัวอย่าง: การซื้อขายความถี่สูง
โมเดลที่เน้นเฉพาะประสิทธิภาพจะประสบความสำเร็จหากทำให้ผลตอบแทนต่อการลงทุน (ROI) สูงสุด แต่โมเดลที่รับผิดชอบจะล้มเหลวหากทำกำไรสูง แต่ก่อให้เกิด "การล้มเหลวฉับพลัน" เนื่องจากขาดมาตรการคุ้มครองเสถียรภาพตลาด